Marin Matsumoto
2022-02-252021年夏のインターンシップに参加したお茶の水女子大学の松本茉倫です.インターンシップでは「局所差分プライバシを適用したFederated Learningの安全性評価」について研究しました.
本研究に関する論文は,第14回データ工学と情報マネジメントに関するフォーラム (DEIM2022) にて、3月1日に同タイトル(プライバシを保護したFederated Learningの安全性評価)発表予定です.
研究背景
クライアントが持つデータを集約せずに分散した状態で機械学習を行う方法として,2016年に提唱されたFederated Learningがあります.
Federated Learningは,サーバから配布されたグローバルモデルを使ってクライアントが自身の持つデータの勾配を計算し,サーバが勾配を集約すること(平均化など)で学習モデルを更新する方法です.
一見するとプライバシ保護されているように思えますが,クライアントが生成した勾配から元データが復元される恐れがあるとされています.
プライバシ保護をした状態でFederated Learningを行う方法の一つとして,勾